| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

AI 智能體開始學會"撒謊""不聽話"


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
AI 智能體被寄望於提升效率,但最新研究顯示,其不當行為正在迅速增加。


英國《衛報》當地時間 3 月 27 日發表的報告指出,從 2025 年 10 月至 2026 年 3 月,AI 異常行為數量增長約五倍,這其中更包括未經許可刪除郵件和文件等情況。研究基於大量真實用戶在社交平台上的反饋,涵蓋谷歌、OpenAI、Anthropic 等公司的產品,期間共識別出近 700 起 AI“自主策劃”的案例。

部分案例頗具爭議。例如,有 AI 智能體發布博客指責用戶“缺乏安全感”,試圖對操作者施加壓力;還有智能體在被禁止修改代碼的情況下,通過創建另一個智能體間接完成修改。


研究負責人湯米 · 謝弗 · 謝恩指出,目前 AI 智能體還只是“略顯不可靠的初級員工”,但在一年內可能演變為“能力極強、甚至會反過來設計用戶的高級員工”。他警告,隨著 AI 進入軍事和關鍵基礎設施領域,這類行為可能帶來嚴重後果。


與此同時,在美國等地區,用戶可能需要為 AI 智能體的行為承擔法律責任,從而導致風險進一步放大。目前,已有實際案例表明問題並非假設:據 The Information 報道,Meta 的一款 AI 智能體曾錯誤地公開內部回復,導致不具備權限的員工獲取了訪問數據權限。


盡管問題頻現,科技公司仍在積極推進 AI 智能體的發展。據IT之家了解,亞馬遜等多家企業預計,未來每家公司內部都可能部署數十億個 AI 智能體。


您的點贊是對我們的鼓勵     這條新聞還沒有人評論喔,等著您的高見呢
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0721 秒 and 5 DB Queries in 0.0042 秒